(截至 2026‑03‑16)

全球大模型厂商全景表(按厂商分行,含主流 + 优质非主流)

厂商 模型名称 底层技术 / 架构 是否基于开源 / 开源信息 模型特点 擅长领域 典型使用场景 额外信息
OpenAI GPT‑5.3 自研 Transformer+MoE 闭源 通用能力天花板、多模态原生、实时语音 / 工具调用强、生态最丰富 复杂推理、代码、创意、多模态理解、实时交互 全能助手、企业级应用、实时语音、Agent 开发 价格较高;安全过滤严格;支持 MCP、函数调用
OpenAI GPT‑4o 自研 Transformer+MoE 闭源 多模态均衡、实时语音、推理强、性价比高 多模态、实时交互、通用推理 日常助手、内容创作、实时语音、企业应用 主流闭源首选;支持视频理解
OpenAI o3 自研深度推理架构 闭源 数学 / 代码推理极强、长思维链、低幻觉 数学证明、代码重构、复杂逻辑 科研、算法、编程、复杂推理任务 推理深度顶尖;适合高难度逻辑任务
Anthropic Claude 4 Opus 自研 Transformer+Constitutional AI 闭源 超长上下文(1M+ Token)、低幻觉、高指令遵循、安全合规 长文档分析、编程、法律 / 医疗、企业知识库 文档审阅、代码开发、合规问答、RAG 系统 支持 MCP、Computer Use;适合敏感数据
Anthropic Claude 4 Sonnet 自研 Transformer 闭源 平衡性能与成本、长上下文、稳定 通用推理、长文档、企业服务 企业客服、知识库、内容生成 性价比高;适合批量任务
Anthropic Claude 3 Haiku 自研轻量 Transformer 闭源 极速推理、低成本、轻量 快速问答、简单任务、边缘场景 实时交互、轻量应用、批量处理 延迟最低;适合高并发场景
Google DeepMind Gemini 3.0 Ultra 自研多模态统一架构 + MoE 闭源 原生多模态(文 / 图 / 音 / 视频 / 3D)、千万级上下文、科学推理顶尖 多模态理解、长视频、科学计算、机器人 内容创作、科研辅助、企业搜索、云服务 深度绑定 Google 生态;自研 TPU,推理效率高
Google DeepMind Gemini 3.0 Pro 自研多模态架构 闭源 多模态均衡、长上下文、性价比高 多模态、通用推理、企业应用 企业服务、内容创作、多模态交互 主流多模态闭源首选
Google DeepMind Gemini 3.0 Flash 自研高效多模态 闭源 极速推理、低成本、轻量多模态 快速多模态、实时交互、轻量应用 移动端、实时问答、批量处理 成本降低 72%、速度提升 11 倍
Google DeepMind PaLM 3 自研 Transformer 闭源 长上下文、推理强、企业级 企业级推理、长文档、合规 金融、医疗、企业知识库 企业级部署成熟;适合高安全场景
百度 文心一言 6.0 自研双脑架构(神经 + 符号推理) 闭源 中文知识图谱完善、搜索增强、合规成熟、多模态均衡 中文理解、知识问答、金融 / 政务、搜索 智能客服、企业知识库、政务服务、内容生成 国内合规体系完善;与百度搜索深度融合
百度 ERNIE 4.5 自研 Transformer 闭源 中文强、知识密集、多模态 中文通用、知识问答、内容创作 内容生成、企业应用、知识服务 文心系列主力;适合国内垂直场景
阿里 通义千问 4.0 自研 MoE(397B 总 / 17B 激活) 闭源 中文能力顶尖、企业场景优化、成本低 中文通用、电商、多模态、RAG/Agent 企业服务、内容创作、电商应用 阿里生态深度集成;企业级成熟
阿里 Qwen 3.5 自研 MoE 开源(Apache 2.0) 中文第一、多模态、上下文 256K、生态完善 中文通用、多模态、私有化、开源开发 本地部署、企业私有化、开源应用 国内开源标杆;支持 Ollama
阿里 Qwen‑Max 自研 MoE 开源(Apache 2.0) 超大模型、推理强、多模态 复杂推理、多模态、科研 科研、复杂任务、企业级 Agent 开源超大模型;适合高难度任务
字节跳动 豆包 Seed 2.0 Pro 自研多模态架构 闭源 语音交互流畅、C 端体验好、短视频 / 内容创作优化 语音对话、内容生成、日常助理、多模态 个人助手、内容创作、直播 / 短视频、办公 支持实时语音;移动端体验优秀
字节跳动 豆包 5.0 自研轻量多模态 闭源 轻量、极速、C 端友好 日常问答、内容创作、实时交互 个人助理、移动端、轻量应用 体验流畅;适合日常使用
月之暗面 Kimi K2.5 自研超长上下文 MoE 闭源 200 万 + 字上下文、文件解析 / 阅读极强、Agent 集群 超长文档、论文、法律 / 会议纪要、多轮对话 科研文献、法律合同、会议总结、知识库 单轮可输入整本书;支持多 Agent 并行
月之暗面 Kimi Agent 自研 Agent 架构 闭源 原生 Agent、多轮协作、长记忆 Agent 开发、复杂任务、自动化 企业自动化、智能体、工作流 适合构建复杂 Agent 系统
xAI Grok 4.1 自研 Transformer + 实时数据 闭源 实时信息整合、幽默风格、社交属性、低延迟 实时问答、创意写作、社交内容、新闻分析 实时资讯、娱乐交互、内容创作、舆情监测 接入 X(原 Twitter)数据;风格活泼
xAI Grok 4.2 Ultimate 自研多 Agent 架构 闭源 多 Agent 协作、交叉验证、低幻觉、实时 复杂推理、实时数据、多 Agent 科研、实时分析、企业级 Agent 多 Agent 并行;降低幻觉
Meta Llama 4 Decoder‑only+MoE 开源(商用友好) 全球开源标杆、多语言、生态完善、支持微调 / 本地部署 通用推理、多语言、私有化、研究 本地 AI、企业私有化、开源应用、Agent 开发 权重公开;支持 Ollama;社区工具链最丰富
Meta Llama 3.2 Decoder‑only 开源(商用友好) 轻量、高效、多语言、适合边缘 轻量部署、边缘计算、简单推理 移动端、边缘设备、轻量应用 适合低配设备;本地部署友好
深度求索 DeepSeek‑V4 (R1) MoE(671B 总 / 28B 激活) 开源(Apache 2.0) 数学 / 代码推理极强、性价比高、轻量高效 代码生成、数学证明、科研、算法开发 编程助手、科研计算、本地 Agent、私有化 开源代码模型领先;适合技术 / 开发场景
深度求索 DeepSeek‑Coder 自研代码专用 MoE 开源(Apache 2.0) 代码生成 / 理解极强、支持多语言 代码、编程、算法、开发 编程助手、代码审查、算法开发 代码领域开源标杆
智谱 AI GLM‑5 MoE(744B 总 / 40B 激活) 开源(商用友好) Agent 原生架构、长推理、代码强、中文优化 智能体、复杂推理、代码、科研 / 政务 Agent 开发、企业服务、科研、政务系统 清华系;支持长程 Agent;适合复杂工程
智谱 AI ChatGLM 自研 Transformer 开源(商用友好) 中文友好、轻量、易用 中文通用、内容创作、轻量应用 个人使用、轻量企业应用、开源开发 入门友好;适合快速上手
Mistral AI Mistral Large MoE 开源(Apache 2.0) 高效推理、低延迟、欧洲标准、工具调用强 通用推理、工具调用、欧洲合规、轻量部署 欧洲企业、自动化、本地 AI、快速响应 欧洲主流开源;推理速度快、成本低
Mistral AI Mixtral 8x22B MoE 开源(Apache 2.0) 轻量 MoE、高效、平衡 轻量部署、通用推理、边缘 本地 AI、边缘设备、轻量应用 适合低配设备;性价比高
阶跃星辰 Step 3.5 Flash 自研高效架构 开源(Apache 2.0) 轻量、极速推理、全球调用量领先、本地部署友好 实时交互、轻量 Agent、本地执行、OpenClaw OpenClaw 本地 AI、轻量化部署、实时应用 OpenClaw 平台调用量第一;适合本地自动化
浪潮 YuanLabai Yuan 3.0 Ultra MoE(1515B→1010B) 开源(Apache 2.0) 多模态、LFA 机制、RAG / 表格分析强 企业级 Agent、多模态、文档 / 表格理解 企业知识库、RAG 系统、多模态数据处理 支持 16bit/4bit 量化;适合企业级 Agent 引擎
百川智能 Baichuan 4 自研 Transformer 开源(商用友好) 中文友好、知识密度高、商业化友好、轻量 中文通用、知识问答、垂直场景、搜索增强 国内垂直应用、内容创作、搜索增强 中文优化;适合国内中小企业
MiniMax MiniMax M2.5 Sparse MoE + 原生 Agent 框架 开源(商用友好) 极速推理、低耗、Agent 原生、成本仅为闭源 1% 轻量化 Agent、实时交互、编程、推理 本地 Agent、轻量化部署、实时应用、低成本开发 首个在关键评测超越 Claude 的开源模型;Forge 原生 Agent 框架
微软 Phi‑3 自研轻量 Transformer 开源(MIT) 体积小、速度快、低配电脑能跑、完全免费 边缘部署、简单推理、轻量应用 移动端、边缘设备、入门级 AI 适合低配设备;本地部署零成本
IBM Watsonx 3.0 自研企业级 Transformer 闭源 金融 / 医疗合规、企业 ERP/CRM 深度集成 金融、医疗、企业级合规、行业应用 金融风控、医疗诊断、企业服务 服务全球 3000 + 大型企业;行业合规成熟

按个人 / 企业 / 本地部署 / 云端 API四个场景,按最优顺序列出模型并给出直接调用 / 部署的最简命令

优先选中文友好、成本可控、易上手的模型。


1️⃣ 个人场景(轻量、易用、低门槛)

推荐排序:1. 豆包 Seed 2.0 Pro(闭源);2. Qwen 3.5 7B(开源);3. Step 3.5 Flash(本地友好)


2️⃣ 企业场景(稳定、合规、高可用)

推荐排序:1. 通义千问 4.0(闭源);2. GLM-5(开源 / 闭源混合);3. Claude 4 Opus(合规长文)


3️⃣ 本地部署(隐私、离线、可控)

推荐排序:1. Qwen 3.5 9B(Ollama);2. Llama 4 7B(Ollama);3. Step 3.5 Flash + OpenClaw(Agent 专用)


4️⃣ 云端 API(高并发、低成本、弹性)

推荐排序:1. DeepSeek-R1(推理强);2. Kimi K2.5(长文);3. GPT-4o(多模态)


快速决策表

表格

场景 首选模型 工具 / 框架 核心优势
个人 豆包 Seed 2.0 Pro 一步 API 中文好、免费额度、易上手
企业 通义千问 4.0 阿里云百炼 合规、私有化、企业集成
本地部署 Qwen 3.5 9B Ollama 隐私可控、中文最优
云端 API DeepSeek-R1 OpenAI SDK 推理强、成本低、高并发

通用建议

  1. 个人入门:先试 豆包 Seed 2.0 Pro(免费额度足够日常使用);想本地玩用 Ollama + Qwen 3.5
  2. 企业落地:优先 通义千问 4.0(国内合规最稳),需长文 / 合规选 Claude 4 Opus
  3. 本地 Agent:用 OpenClaw + Step 3.5 Flash,一键部署自动化任务。
  4. 云端高并发:选 DeepSeek-R1(推理成本仅 GPT-4 的 1/10),或 Kimi K2.5(长文处理神器)。